Coautoria de James Robinson e Jason Clark
Assim que o ChatGPT e o tópico de inteligência artificial generativa (IA) se tornaram populares, todos os líderes de tecnologia de negócios corporativos começaram a fazer a mesma pergunta.
É seguro?
Na Netskope, nossa resposta é sim - desde que estejamos fazendo todas as coisas certas com a proteção de dados confidenciais e o uso responsável de IA/ML em nossas próprias plataformas e produtos, transmitindo efetivamente uma compreensão desse uso aos nossos clientes, prospects, parceiros, fornecedores terceirizados e outras partes para ajudar a criar programas orientados pela governança.
A permissão gerenciada do ChatGPT e outras ferramentas de IA generativas é uma necessidade. As organizações que simplesmente “desligam” o acesso a ele podem se sentir inicialmente mais seguras, mas também estão negando os muitos usos produtivos do ChatGPT e se colocando – e toda a sua equipe – atrás da curva da inovação.
Permissão gerenciada do ChatGPT
A Netskope tem se concentrado profundamente no uso produtivo de IA e machine learning (ML) desde a nossa fundação em 2012, e muitas inovações de IA/ML - dezenas delas patenteadas - já fazem parte da nossa plataforma Intelligent SSE. Nossa equipe do Netskope AI Labs discute rotineiramente a inovação em IA/ML e ciência de dados com os clientes da Netskope e nossa comunidade interna.
Como todos, acabamos de observar um ponto de inflexão. Antes de novembro de 2022, se você não fosse um profissional de segurança, desenvolvedor, cientista de dados, futurista ou entusiasta de tecnologia, provavelmente não estaria fazendo muito com a IA generativa. Mas o que aconteceu desde o lançamento público do ChatGPT é que esses serviços e tecnologias agora estão disponíveis para o acesso de leigos. Qualquer pessoa com um navegador hoje, neste exato momento, pode pesquisar e entender o que o ChatGPT é capaz de fazer.
Quando algo é tão difundido que se torna tópico dominante das conversas nos negócios e na tecnologia tão rapidamente – como o ChatGPT definitivamente se tornou –, os líderes têm basicamente duas opções:
- Proibir ou limitar severamente seu uso;
- Criar uma cultura que permita que as pessoas entendam o uso dessa tecnologia – e adotem seu uso – sem colocar a empresa em risco
Na Netskope, para os membros da nossa equipe que devem ter permissão para acessar o ChatGPT, hoje permitimos o acesso responsável. Aqui, no início da adoção da IA generativa convencional, veremos pelo menos o mesmo comportamento perturbador que vimos no início do mecanismo de pesquisa on-line décadas atrás, onde vimos diferentes ameaças e muitos dados disponibilizados publicamente que realmente não deveriam ter sido.
Mas lembre-se: agora, como naquela época, a grande estratégia de segurança é proteger os dados confidenciais para que eles não sejam acessados por fontes que não deveriam fazê-lo. Hoje, com o ChatGPT e outras aplicações de IA generativa, isso pode ser feito com a orientação cultural correta - ou seja, permitir isso de forma responsável - combinada com a orientação tecnológica correta, o que significa controles modernos de prevenção contra perda de dados (DLP) que evitam o uso indevido e a exfiltração de dados e também fazem parte de uma infraestrutura que permite que as equipes respondam rapidamente em caso de uso indevido desses dados.
Um blog recente, “Modern Data Protection Safeguards for ChatGPT and Other Generative Applications,” touches on how the Netskope platform specifically–and our modern DLP—helps prevent the cyber risks inherent in generative AI applications. aborda como a plataforma Netskope especificamente – e nosso DLP moderno – ajuda a evitar os riscos cibernéticos inerentes às aplicações generativas de IA. Leia o artigo para se aprofundar no assunto, mas para resumir: seu DLP precisa ser capaz de definir políticas no nível de "isso nunca deve sair" - conjuntos de dados ou coortes que seriam perigosos para os negócios se expostos - e "isso não deve sair", ou seja, conjuntos de dados ou coortes que você não quer que sejam comprometidos, mas que não seriam materiais para a interrupção dos negócios.
O DLP avançado da Netskope pode identificar automaticamente fluxos de dados confidenciais, categorizando-os com a maior precisão possível. Isso inclui a classificação de imagens com base em IA/ML e a capacidade de criar filtros personalizados com base em ML, além da aplicação em tempo real - aplicável a cada conexão de usuário - que combina a interrupção seletiva de postagens de informações confidenciais com mensagens visuais de orientação para ajudar os usuários a adotar um comportamento melhor.
Então, a grande questão novamente: o ChatGPT é seguro?
Sim. Com a mentalidade certa, a educação certa para os usuários e a tecnologia DLP correta e moderna para protegê-lo.
Uma palavra sobre riscos que terceiros representam
À medida que mais empresas buscam permitir o uso comercial produtivo da IA generativa por funcionários apropriados, mais líderes de tecnologia farão perguntas ainda mais específicas sobre riscos relevantes que terceiras e quartas partes envolvidas representam.
Os copilotos, por exemplo, serão adotados rapidamente, mas quantas empresas, em seu processo de RFP, estão solicitando aos fornecedores de seus fornecedores informações essenciais sobre como suas ferramentas aproveitam os copilotos ou quaisquer ferramentas associadas à IA? Você poderia hoje, por exemplo, identificar quais de seus fornecedores comunicaram quanto de qualquer código em seu software foi escrito por um aplicativo de IA ou não? E você pode revisar isso? Se os seus fornecedores tiverem aplicativos de IA gerando conteúdo, você sabe quem é o proprietário da tecnologia que eles estão usando? E quem é o proprietário do conteúdo que eles produzem e, se o licenciamento shift-left está envolvido, isso é um problema?
A Netskope agora inclui essas questões em nosso processo de governança como padrão, e todas as empresas deveriam fazê-lo. Como setor de segurança, somos mais fortes quando somos diretos e específicos sobre o que queremos alcançar e como podemos alcançá-lo.
Para saber mais, consulte estes recursos adicionais:
- https://www.netskope.com/products/security-service-edge
- https://www.netskope.com/products/data-loss-prevention
- https://www.netskope.com/netskope-ai-labs
Além disso, se você estiver interessado em saber mais sobre IA generativa e segurança de dados, registre-se em nosso evento LinkedIn Live ChatGPT: Fortifying Data Security in the AI App-ocalypse, apresentando Krishna Narayanaswamy, Naveen Palavalli, e Neil Thacker, na quinta-feira, 22 de junho às 9h30 PT.